变分推理(VI)与贝叶斯非线性滤波相结合,为潜在时间序列建模产生最先进的结果。最近的工作中的一个身体专注于序贯蒙特卡罗(SMC)及其变体,例如,前向滤波后仿真(FFBSI)。虽然这些研究成功了,但严重的问题仍然存在于粒子退化和偏见的渐变估计中。在本文中,我们提出了Enemble Kalman变分目标(ENKO),VI的混合方法和集合卡尔曼滤波器(ENKF),以推断出状态空间模型(SSMS)。我们所提出的方法可以有效地识别潜在动力学,因为其粒子多样性和无偏梯度估计值。我们展示了我们的ENKO在三个基准非线性系统识别任务的预测能力和粒子效率方面优于基于SMC的方法。
translated by 谷歌翻译
本文解决了解释黑框回归模型异常预测的任务。当使用黑框模型(例如从许多传感器测量值中预测能源消耗的一个模型)时,我们通常会有某些观察到的样品可能会显着偏离其预测的情况。这可能是由于亚最佳黑盒模型,或仅仅​​是因为这些样品是异常值。无论哪种情况,理想情况下都希望计算``责任分数'',以指示输入变量负责异常输出的程度。在这项工作中,我们将此任务形式化为一个统计逆问题:给定模型偏离预期值,推断每个输入变量的责任分数。我们提出了一种称为似然补偿(LC)的新方法,该方法基于可能性原理,并计算对每个输入变量的校正。据我们所知,这是第一个计算实际有价值异常模型偏差的责任分数的原则性框架。我们将方法应用于现实世界中的建筑能源预测任务,并根据专家反馈确认其实用性。
translated by 谷歌翻译
我们讨论了区块链作为协作价值共同创建平台的未来方向,在该平台中,网络参与者可以获得与其他人断开连接时无法访问的额外见解。因此,我们提出了一个分散的机器学习框架,该框架经过精心设计,以尊重民主,多样性和隐私的价值。具体而言,我们提出了一个联合的多任务学习框架,该框架集成了隐私保护动态共识算法。我们表明,称为“扩展器图”的特定网络拓扑可显着提高全球共识构建的可扩展性。我们通过对开放问题作了一些评论来结束论文。
translated by 谷歌翻译
我们为时间事件数据提出了一个新的稀疏Granger-Causal学习框架。我们专注于一种称为Hawkes流程的特定点过程。我们首先指出,霍克斯工艺的大多数现有稀疏因果学习算法在最大似然估计中都具有奇异性。结果,它们的稀疏溶液只能显示为数值伪像。在本文中,我们提出了一个基于基于基数规范化的霍克斯过程的数学定义明确的稀疏因果学习框架,该过程可以纠正现有方法的病理问题。我们利用提出的算法来完成实例因果事件分析的任务,其中稀疏性起着至关重要的作用。我们使用两个真实用例验证了所提出的框架,一个来自电网,另一个来自云数据中心管理域。
translated by 谷歌翻译
本文与社交网络上的在线有针对性广告有关。我们解决的主要技术任务是估计用户对的激活概率,这可以量化一个用户对购买决策的影响的影响。这是一项具有挑战性的任务,因为一个营销事件通常涉及多种产品的多种营销活动/策略。在本文中,我们提出了我们认为是第一个基于张量的在线广告上的基于张量的上下文强盗框架。该拟议的框架旨在以多模式张量的形式适应任何数量的特征向量,从而使以统一的方式捕获与用户偏好,产品和广告系列策略可能存在的异质性。为了处理张量模式的相互依赖性,我们引入了具有平均场近似值的在线变分算法。我们从经验上确认,提出的Tensorucb算法在影响基准比基准的影响最大化任务方面取得了重大改进,这归因于其捕获用户产品异质性的能力。
translated by 谷歌翻译
图形卷积是一种最近可扩展的方法,用于通过在多个层上汇总本地节点信息来对属性图进行深度特征学习。这样的层仅考虑向前模型中节点邻居的属性信息,并且不将全球网络结构的知识纳入学习任务。特别是,模块化功能提供了有关网络社区结构的方便信息。在这项工作中,我们通过将网络的社区结构保存目标纳入图卷积模型中,调查了对学习表示的质量的影响。我们通过在输出层中的成本函数中的明确正规化项和通过辅助层计算的附加损失项中通过两种方式结合目标。我们报告了在图形卷积体系结构中保存术语的社区结构的效果。对两个归因的分布图网络进行的实验评估表明,社区保护目标的合并提高了稀疏标签制度中的半监督节点分类精度。
translated by 谷歌翻译
现代推荐系统需要适应用户偏好和项目人气的变化。这种问题被称为时间动态问题,它是推荐系统建模中的主要挑战之一。与流行的反复建模方法不同,我们通过使用基于轨迹的元学习来模型依赖性将一个名为LeNprec的新解决方案提出了一个名为LeNprec的新解决方案。 Leaprec通过命名为全局时间Leap(GTL)的两个补充组件来表征时间动态,并订购时间Leap(OTL)。通过设计,GTL通过找到无序时间数据的最短学习路径来学习长期模式。协同地,OTL通过考虑时间数据的顺序性质来学习短期模式。我们的实验结果表明,LeNPrec在几个数据集和推荐指标上始终如一地优于最先进的方法。此外,我们提供了GTL和OTL之间的相互作用的实证研究,显示了长期和短期建模的影响。
translated by 谷歌翻译
图形神经网络已成为从图形结构数据学习的不可缺少的工具之一,并且它们的实用性已在各种各样的任务中显示。近年来,建筑设计的巨大改进,导致各种预测任务的性能更好。通常,这些神经架构在同一层中使用可知的权重矩阵组合节点特征聚合和特征转换。这使得分析从各种跳过的节点特征和神经网络层的富有效力来挑战。由于不同的图形数据集显示在特征和类标签分布中的不同级别和异常级别,因此必须了解哪些特征对于没有任何先前信息的预测任务是重要的。在这项工作中,我们将节点特征聚合步骤和深度与图形神经网络分离,并经验分析了不同的聚合特征在预测性能中发挥作用。我们表明,并非通过聚合步骤生成的所有功能都很有用,并且通常使用这些较少的信息特征可能对GNN模型的性能有害。通过我们的实验,我们表明学习这些功能的某些子集可能会导致各种数据集的性能更好。我们建议使用Softmax作为常规器,并从不同跳距的邻居聚合的功能的“软选择器”;和L2 - GNN层的标准化。结合这些技术,我们呈现了一个简单浅的模型,特征选择图神经网络(FSGNN),并经验展示所提出的模型比九个基准数据集中的最先进的GNN模型实现了可比或甚至更高的准确性节点分类任务,具有显着的改进,可达51.1%。
translated by 谷歌翻译
随着脑成像技术和机器学习工具的出现,很多努力都致力于构建计算模型来捕获人脑中的视觉信息的编码。最具挑战性的大脑解码任务之一是通过功能磁共振成像(FMRI)测量的脑活动的感知自然图像的精确重建。在这项工作中,我们调查了来自FMRI的自然图像重建的最新学习方法。我们在架构设计,基准数据集和评估指标方面检查这些方法,并在标准化评估指标上呈现公平的性能评估。最后,我们讨论了现有研究的优势和局限,并提出了潜在的未来方向。
translated by 谷歌翻译
当在新的类或新任务上逐步训练时,深度神经网络易于灾难性遗忘,因为对新数据的适应导致旧课程和任务的性能急剧下降。通过使用小记忆进行排练和知识蒸馏,已证明最近的方法可有效缓解灾难性的遗忘。然而,由于内存的尺寸有限,旧的和新类可用的数据量之间的大不平衡仍然存在,这导致模型的整体精度恶化。为了解决这个问题,我们建议使用平衡的软制跨熵损失,并表明它可以与进出的方法相结合,以便在某些情况下降低培训过程的计算成本,以提高其性能。对竞争的想象,Subimagenet和CiFar100数据集的实验显示了最艺术态度的结果。
translated by 谷歌翻译